千名大佬紧急呼吁停止 AI 训练!OpenAI:GTP-4 已出现无法解释的推理~
全球顶级 AI 实验室的验证以及大量的研究表明,拥有人类竞争智慧的 AI 系统可能对社会和人类构成深远的风险。在被广泛认可的《Asilomar AI》原则中,高级 AI 可能代表地球生命史上的深刻变化,应以相应的关怀和资源进行规划和管理。不幸的是,这种级别的规划和管理并没有发生,尽管最近几个月人工智能实验室陷入了一场以开发和部署更强大的数字思维为目的的失控竞赛,没有人——甚至其创造者都无法理解、预测或可靠地控制的人工智能。
当代人工智能系统现在在一般任务上变得与人类具有竞争力,我们必须扪心自问:
我们是否应该让机器用宣传和谎言充斥我们的信息渠道?
我们应该把所有的工作都自动化吗,包括有成就感的工作?
我们是否应该发展数量和智慧都最终会超越我们自己的非人类智能吗?
我们应该冒着失去对我们文明控制的风险吗?
不得将此类决定抛给未经选举产生的技术领导者,只有当我们确定其影响是积极的并且风险是可控的时候,才应该开发强大的 AI 系统,而且这种信心必须有充分的理由,并随着系统潜在影响的大小而增加。OpenAI 最近关于通用人工智能的声明指出,“在某些时候,在开始训练未来系统之前可能不得不进行重要的独立审查,并且对于最先进的研究来说,可能要限制用于创建新系统的计算增长率。” 这个观点我们同意,某些时候就指的是现在。
因此,我们呼吁所有 AI 实验室立即暂停至少 6 个月的训练比 GPT-4 更强大的 AI 系统。这种暂停应该是公开的和可验证的,并且包括所有关键参与者。如果不能迅速实施这种暂停,政府应介入并暂停。
AI 实验室和独立专家应该利用这次暂停的机会,共同开发和实施一套用于高级人工智能设计和开发的共享安全协议,并由独立的外部专家进行严格审计和监督,这些协议应确保其系统是安全的,而且这并不意味着彻底暂停 AI 的开发,只是从危险的竞赛中及时抽身到具有可控应对机制的正确道路上,而不是在大且不可预测的黑盒子中乱撞。
人工智能研究和开发应该重新聚焦于使当今强大的、最先进的系统更加准确、安全、可解释、透明、稳健、一致、值得信赖和忠诚。
与此同时,AI 开发人员必须与政策制定者合作,以显著加快开发强大的 AI 治理系统。这些至少应包括:
专门负责 AI 的全新且有能力的监管机构;
监督和跟踪强 AI 系统和大量计算的能力;
确定 AI 出处以及水印系统,以帮助区分真实与合成并跟踪模型泄漏;
强大的审计和认证生态系统;
AI 造成伤害的责任认定和承担;
为 AI 的安全研究提供强大的公共资金;
资源充足的机构来应对 AI 将造成的巨大的经济和政治破坏(尤其是民主)。
人类可以享受 AI 带来的繁荣未来,创建强大的 AI 系统后享受“AI 带来的夏天”,收获回报,将这些 AI 系统设计造福所有人,给社会一个适应 AI 的机会,而且社会需要评估可能对社会造成灾难性影响的技术。让我们享受一个漫长的 AI 之夏,而不是毫无准备地陷入秋风扫落叶的境地。
RECOMMEND
推荐阅读
添加管理员微信,加入技术交流群,与高手面对面~
点赞👍在看❤️分享💬“三连”支持哦